无人驾驶飞机在当天变得越来越流行,对它们的申请越过科学和工业的界限,从航空摄影到包装交付再到灾难管理,从该技术中受益。但是在它们变得司空见惯之前,要解决的挑战要使它们可靠和安全。以下论文讨论了与无人驾驶飞机的精确着陆相关的挑战,包括传感和控制的方法及其在各种应用中的优点和缺点。
translated by 谷歌翻译
随着无人机技术的改进,从监视到航空摄影再到包装交付的这些多功能自动驾驶汽车,已经发现了越来越多的用途,并且这些应用都带来了独特的挑战。本文实施了一个这样一个挑战的解决方案:降落在移动目标上。此问题以前已经通过不同程度的成功解决了,但是大多数实施都集中在室内应用程序上。室外以风和照明等变量的形式提出了更大的挑战,室外无人机更重,更容易受到惯性效应的影响。我们的方法纯粹是基于视觉的,使用单眼摄像机和基准标记来定位无人机和PID控制,以跟随和降落在平台上。
translated by 谷歌翻译
Autonomous vehicles must often contend with conflicting planning requirements, e.g., safety and comfort could be at odds with each other if avoiding a collision calls for slamming the brakes. To resolve such conflicts, assigning importance ranking to rules (i.e., imposing a rule hierarchy) has been proposed, which, in turn, induces rankings on trajectories based on the importance of the rules they satisfy. On one hand, imposing rule hierarchies can enhance interpretability, but introduce combinatorial complexity to planning; while on the other hand, differentiable reward structures can be leveraged by modern gradient-based optimization tools, but are less interpretable and unintuitive to tune. In this paper, we present an approach to equivalently express rule hierarchies as differentiable reward structures amenable to modern gradient-based optimizers, thereby, achieving the best of both worlds. We achieve this by formulating rank-preserving reward functions that are monotonic in the rank of the trajectories induced by the rule hierarchy; i.e., higher ranked trajectories receive higher reward. Equipped with a rule hierarchy and its corresponding rank-preserving reward function, we develop a two-stage planner that can efficiently resolve conflicting planning requirements. We demonstrate that our approach can generate motion plans in ~7-10 Hz for various challenging road navigation and intersection negotiation scenarios.
translated by 谷歌翻译
目标变量的日志和平方根变换通常用于预测模型中,以预测未来的销售。这些转换通常会导致更好的性能模型。但是,他们还引入了系统的负面偏见(遗产不足)。在本文中,我们证明了这种偏见的存在,深入研究其根本原因,并引入了两种方法以纠正偏见。我们得出的结论是,提出的偏差校正方法提高了模型性能(最多可提高50%),并为将偏置校正纳入建模工作流程而提高。我们还尝试了“ Tweedie”成本功能家族,这些功能通过直接建模销售来规避转换偏见问题。我们得出的结论是,Tweedie回归在建模销售时迄今为止提供了最佳性能,使其成为使用变换的目标变量的强大替代方案。
translated by 谷歌翻译
在现代自治堆栈中,预测模块对于在其他移动代理的存在下计划动作至关重要。但是,预测模块的失败会误导下游规划师做出不安全的决定。确实,轨迹预测任务固有的高度不确定性可确保这种错误预测经常发生。由于需要提高自动驾驶汽车的安全而不受损害其性能的需求,我们开发了一个概率运行时监视器,该监视器检测到何时发生“有害”预测故障,即与任务相关的失败检测器。我们通过将轨迹预测错误传播到计划成本来推理其对AV的影响来实现这一目标。此外,我们的检测器还配备了假阳性和假阴性速率的性能度量,并允许进行无数据校准。在我们的实验中,我们将检测器与其他各种检测器进行了比较,发现我们的检测器在接收器操作员特征曲线下具有最高的面积。
translated by 谷歌翻译
我们的激励是以富裕的感觉输入(例如,愿景)的机器人系统的学习政策的问题,以便我们在培训期间保证概念的环境概括。我们提供了一个框架,用于通过利用现实世界环境的有限数据集结合(可能不准确)的环境的生成模型来提供这种概括保证。我们的方法背后的关键思想是利用生成模型,以便在策略之前隐式指定。通过最小化通过可能大致正确(PAC)泛化理论的新颖环境中预期成本的上限,使用环境的实际数据集更新。我们在两个模拟系统上展示了具有非线性/混合动态和富有的传感方式的两种模拟系统:(i)用板载视觉传感器的四轮车导航,并使用深度传感器抓住物体。与现有工作的比较展示了我们利用生成模型获得更强的泛化担保的能力。我们还提供了用于验证我们掌握任务的界限的硬件实验。
translated by 谷歌翻译
本文提出了一种学习议案人的方法,这些规划人员伴随着概率的成功保障在均可允许的集团内的机器人动态的任何干扰均匀。我们通过从泛化理论和强大的控制中汇集工具来实现这一目标。首先,我们策划一个运动原语库,其中每个原始的鲁棒性的特征在于前向可达集合的过度近似,即“漏斗”。然后,我们可能大致优化(PAC)--Bayes泛化界限,用于培训我们的计划者,以撰写这些原语,使整个漏斗尊重问题规范。我们展示了我们在两个模拟示例中提供了强担保的方法的能力:(i)在具有多辆车的五车道公路上的外部干扰下的自主车辆导航,(ii)在障碍场上导航无人机的导航风扰动的存在。
translated by 谷歌翻译
深度检索模型广泛用于学习实体表示和建议。联合学习提供了一种隐私保留方式来培训这些模型,而无需集中用户数据。然而,由于非IID(独立和相同的和相同的和相同的分布式)培训数据,联邦深度检索模型通常比客户的培训数据更差,这是联邦学习的内在财产,限制了可用于培训的否定。我们证明,这个问题与常识的客户漂移问题不同。这项工作提出了批量不敏感的损失,作为缓解联合电影建议的非IID负面问题的一种方式。我们探讨各种技术,并确定批量不敏感损耗可以有效地提高联邦深度检索模型的性能,将联邦模型的相对召回增加高达93.15%,并减少了它与集中模型之间的相对差距和集中模型从27.22% - 43.14%至0.53% - 2.42%。我们还开源我们的代码框架,以加速联合深度检索模型的进一步研究和应用。
translated by 谷歌翻译
我们的目标是执行分销(OOD)检测,即,检测机器人在从不同分布的环境中运行而不是用于训练机器人的环境。我们可能大致正确(PAC)--Bayes理论,以便在培训分布上培训一项保证性能的保证的政策。我们对OOD检测的关键思想依赖于以下直觉:违反测试环境的性能,提供了机器人运营的证据。我们通过基于p值和浓度不平等来使其通过统计技术来形式化。由此产生的方法(i)提供了保证的置信信心界限,包括探测器的假正负率和(ii)的误报和假负率的界限仅是任务驱动和敏感,仅适用于影响机器人性能的变化。我们在使用具有不熟悉的形状或姿势的对象以及在不熟悉的环境(包括风扰动和不同的障碍密度)中使用具有不熟悉的形状或姿势的对象和姿势的无人驾驶障碍物的仿真任务的模拟和硬件中的方法。我们的例子表明我们可以在少数季度试验中执行任务驱动的OOD检测。与基线的比较也展示了我们的方法的优势,以提供统计保证并对任务 - 无关分配转变不敏感。
translated by 谷歌翻译
我们研究了最近引入的最低最大优化框架的一种变体,其中最大玩具被限制以贪婪的方式更新其参数,直到达到一阶固定点为止。我们对此框架的平衡定义取决于最小玩家使用该方向来更新其参数的方向的提案分布。我们表明,鉴于一个平稳且有界的非Convex-Nonconcave目标函数,访问Min-player的更新的任何提案分布以及最大播放器的随机梯度甲骨文,我们的算法收敛于上述近似近似近似局部平衡,以众多的局部平衡。不取决于维度的迭代。我们的算法发现的平衡点取决于提议分布,在应用我们的算法来训练gans时,我们选择提案分布作为随机梯度的分布。我们从经验上评估了我们的算法,以挑战非凸孔测试功能和GAN培训中引起的损失功能。我们的算法在这些测试功能上收敛,并在用于训练gans时会在合成和现实世界中稳定训练,并避免模式崩溃
translated by 谷歌翻译